Depuis le lancement public de ChatGPT le 30 novembre 2022, les projets et entreprises basées sur l’IA se multiplient. Et ce n’est que le début. Dans une interview pour le média CNBC, Mustafa Suleyman, cofondateur du célèbre laboratoire DeepMind racheté par Google et CEO de la startup Inflection AI, prédit que d’ici 5 ans, « tout le monde aura sa propre intelligence artificielle, un assistant personnel qui nous connaît, nous aide à prioriser notre temps, à prendre de meilleures décisions, à être plus créatif. » Bientôt, prédit Suleyman, l’IA découvrira des médicaments miracles, diagnostiquera des maladies rares, gérera des entrepôts, optimisera le trafic et concevra des villes durables. Pourtant, cette même technologie capable de soigner des maladies aujourd’hui incurables pourrait également en créer.
Dans son livre The Coming Wave, cet entrepreneur de l’IA lance un avertissement terrifiant au sujet de l’IA, et notamment de son utilisation dans le cadre de la biologie synthétique. Qu’il s’agisse de cyber-attaques générées par l’IA, d’agents pathogènes de synthèse, de pertes d’emplois dues aux changements technologiques ou de désinformation aggravant l’instabilité politique, Mustafa Suleyman estime que nos institutions ne sont pas prêtes à affronter ce tsunami technologique.
“A.I. is too important not to regulate.” – Sundar Pichai
L’IA devrait-elle être réglementée ? C’est ce que pensent le CEO d’OpenAI Sam Altman, Elon Musk, le CEO de Google Sundar Pichai, ou encore le CTO de Microsoft, Kevin Scott, ainsi qu’un certain nombre de personnalités de la tech qui ont signé en mars dernier une lettre ouverte appelant à suspendre le développement de l’IA, le temps de légiférer et contrôler davantage les avancées dans ce domaine. Laetitia Pouliquen, Directrice du think-tank NBIC Ethics et co-conceptrice de la Lettre Ouverte à la Commission Européenne sur la Robotique et l’IA, dénonce l’ambiguïté de ses homologues américains : « De manière surprenante, certains des experts signataires ressemblent quelque peu à des pompiers pyromanes. Ils dénoncent les mêmes technologies dites disruptives qu’ils mettent cependant sur le marché. » Une manière pour ses entreprises de se placer au cœur des décisions et d’influencer la législation en leur faveur ?
De notre côté de l’Atlantique, ce sont les institutions européennes qui font office d’arbitre. Depuis 2021, les députés planchent sur la première loi globale sur l’IA au monde, qui vise à garantir de meilleures conditions de développement et d’utilisation de cette technologie innovante, notamment sur des critères de sureté, transparence, traçabilité, non discrimination et respect de l’environnement. Et en attendant son entrée en vigueur, « au mieux en 2025 », la CNIL s’est dotée d’un service dédié et a déjà partagé un « Plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus ». Une tentative d’apporter des « réponses concrètes aux entreprises innovantes […] ainsi qu’aux citoyens qui disposent de droits » selon Laure Denis, présidente de la CNIL.